The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
Transformers have attained superior performance in natural language processing and computer vision. Their self-attention and feedforward layers are overparameterized, limiting inference speed and energy efficiency. Tensor decomposition is a promising technique to reduce parameter redundancy by leveraging tensor algebraic properties to express the parameters in a factorized form. Prior efforts used manual or heuristic factorization settings without hardware-aware customization, resulting in poor hardware efficiencies and large performance degradation. In this work, we propose a hardware-aware tensor decomposition framework, dubbed HEAT, that enables efficient exploration of the exponential space of possible decompositions and automates the choice of tensorization shape and decomposition rank with hardware-aware co-optimization. We jointly investigate tensor contraction path optimizations and a fused Einsum mapping strategy to bridge the gap between theoretical benefits and real hardware efficiency improvement. Our two-stage knowledge distillation flow resolves the trainability bottleneck and thus significantly boosts the final accuracy of factorized Transformers. Overall, we experimentally show that our hardware-aware factorized BERT variants reduce the energy-delay product by 5.7x with less than 1.1% accuracy loss and achieve a better efficiency-accuracy Pareto frontier than hand-tuned and heuristic baselines.
translated by 谷歌翻译
光学计算是一种新兴技术,用于下一代高效人工智能(AI),其速度和效率超高。电磁场模拟对于光子设备和电路的设计,优化和验证至关重要。但是,昂贵的数值模拟显着阻碍了光子电路设计循环中的可扩展性和转环。最近,已经提出了物理信息的神经网络来预测具有预定义参数的部分微分方程(PDE)的单个实例的光场解。它们复杂的PDE公式和缺乏有效的参数化机制限制了其在实际模拟方案中的灵活性和概括。在这项工作中,首次提出了一个被称为Neurolight的物理敏捷神经操作员框架,以学习一个频率域的麦克斯韦PDE家族,以进行超快速的参数光子设备模拟。我们通过几种新技术来平衡神经照明的效率和概括。具体而言,我们将不同的设备离散到统一域中,代表具有紧凑型波的参数PDE,并通过掩盖的源建模编码入射光。我们使用参数效率高的跨形神经块设计模型,并采用基于叠加的增强来进行数据效率学习。通过这些协同方法,神经亮像可以概括为大量的看不见的模拟设置,比数值求解器显示了2个磁性的模拟速度,并且比先前的神经网络模型优于降低54%的预测误差,而降低了约44%的参数。 。我们的代码可在https://github.com/jeremiemelo/neurolight上找到。
translated by 谷歌翻译
模拟和混合信号(AMS)电路设计仍然依赖于人类设计专业知识。机器学习一直通过用人工智能代替人类的体验来协助电路设计自动化。本文介绍了标签,这是一种从利用文本,自我注意力和图形的布局中学习电路表示的新范式。嵌入网络模型在无手动标签的情况下学习空间信息。我们向AMS电路学习介绍文本嵌入和自我注意的机制。实验结果表明,具有工业罚款技术基准的实例之间的布局距离的能力。通过在案例研究中显示有限数据的其他三个学习任务的转移性,可以验证电路表示的有效性:布局匹配预测,线长度估计和净寄生电容预测。
translated by 谷歌翻译
脑小血管疾病的成像标记提供了有关脑部健康的宝贵信息,但是它们的手动评估既耗时又受到实质性内部和间际变异性的阻碍。自动化评级可能受益于生物医学研究以及临床评估,但是现有算法的诊断可靠性尚不清楚。在这里,我们介绍了\ textIt {血管病变检测和分割}(\ textit {v textit {where valdo?})挑战,该挑战是在国际医学图像计算和计算机辅助干预措施(MICCAI)的卫星事件中运行的挑战(MICCAI) 2021.这一挑战旨在促进大脑小血管疾病的小而稀疏成像标记的自动检测和分割方法的开发,即周围空间扩大(EPVS)(任务1),脑微粒(任务2)和预先塑造的鞋类血管起源(任务3),同时利用弱和嘈杂的标签。总体而言,有12个团队参与了针对一个或多个任务的解决方案的挑战(任务1 -EPVS 4,任务2 -Microbleeds的9个,任务3 -lacunes的6个)。多方数据都用于培训和评估。结果表明,整个团队和跨任务的性能都有很大的差异,对于任务1- EPV和任务2-微型微型且对任务3 -lacunes尚无实际的结果,其结果尤其有望。它还强调了可能阻止个人级别使用的情况的性能不一致,同时仍证明在人群层面上有用。
translated by 谷歌翻译
图形着色是一个经典且关键的NP硬性问题,是分配尽可能不同颜色的连接节点的问题。但是,我们观察到,最新的GNN在图形着色问题中不太成功。我们从两个角度分析原因。首先,大多数GNN都无法将任务概括为同质性的任务,即在其中分配了不同颜色的图形。其次,GNN受网络深度的界定,使其成为一种本地方法,在最大独立集(MIS)问题中已证明这是非最佳选择的。在本文中,我们专注于流行的GNN类的聚合 - 结合GNNS(AC-GNNS)。我们首先将AC-GNN在着色问题中的功能定义为分配节点不同颜色的能力。该定义与以前的定义不同,该定义是基于同质的假设。我们确定了AC-GNN无法区分的节点对。此外,我们表明任何AC-GNN都是本地着色方法,并且任何局部着色方法都是通过稀疏随机图探索局部方法的极限,从而证明了AC-GNN的非典型性财产。然后,我们证明了模型深度与其着色能力之间的正相关。此外,我们讨论了图形的颜色模棱两可,以应对一些实际约束,例如预固化约束。在上面的讨论之后,我们总结了一系列规则一系列规则,这些规则使GNN颜色均等且功能强大。然后,我们提出了满足这些规则的简单AC-GNN变化。我们从经验上验证了我们的理论发现,并证明我们的简单模型在质量和运行时都大大优于最先进的启发式算法。
translated by 谷歌翻译
随着深度学习模型和数据集的迅速扩展,网络培训非常耗时和资源成本。使用小型合成数据集学习并没有在整个数据集中进行培训,而是一种有效的解决方案。广泛的研究已在数据集凝结的方向上进行了探索,其中梯度匹配可以达到最先进的性能。梯度匹配方法在原始和合成数据集上训练时通过匹配梯度直接靶向训练动力学。但是,对该方法的原理和有效性进行了有限的深入研究。在这项工作中,我们从全面的角度深入研究了梯度匹配方法,并回答了什么,如何和何处的关键问题。我们建议将多级梯度匹配,以涉及类内和类间梯度信息。我们证明,距离函数应集中在角度上,考虑到同时延迟过度拟合的幅度。还提出了一种过度拟合的自适应学习步骤策略,以修剪不必要的优化步骤,以提高算法效率。消融和比较实验表明,与先前的工作相比,我们提出的方法具有优越的准确性,效率和概括性。
translated by 谷歌翻译
模拟/混合信号电路设计是整个芯片设计过程中最复杂,最耗时的阶段之一。由于芯片制造的各种过程,电压和温度(PVT)变化,模拟电路不可避免地会遭受性能降解。尽管在典型条件下自动化模拟电路设计方面已经有很多工作,但在探索在真实且不可预测的硅变化下探索可靠设计的研究有限。针对变化的自动模拟设计需要过度的计算和时间成本。为了应对挑战,我们提出了RobustanAlog,这是一个强大的电路设计框架,涉及优化过程中的变化信息。具体而言,不同变化下的电路优化被认为是一组任务。任务之间的相似之处是杠杆作用,并且可以缓解竞争以实现样本效率高的多任务培训。此外,Robustanalog根据每次迭代中当前的性能来修剪任务空间,从而导致进一步的模拟成本降低。这样,鲁棒可以迅速产生一组电路参数,这些电路参数满足各种变化的各种约束(例如增益,带宽,噪声...)。我们将Robustanalog与贝叶斯优化,进化算法和深层确定性策略梯度(DDPG)进行了比较,并证明Robustanalog可以将所需的优化时间显着减少14-30次。因此,我们的研究提供了一种处理各种真实硅条件的可行方法。
translated by 谷歌翻译
预审前的语言模型在自然语言处理的各个领域都取得了成功,包括阅读理解任务。但是,当将机器学习方法应用于新域时,标记的数据可能并不总是可用。为了解决这个问题,我们使用对源域数据进行预处理的监督,以降低特定于域的下游任务的样本复杂性。我们通过将任务转移与域适应性相结合以微调验证的模型,而没有目标任务中的数据来评估特定于领域的阅读理解任务的零射击性能。我们的方法在4个域中的3个域中的下游域特异性阅读理解任务上超过了域自适应预测。
translated by 谷歌翻译
随着最近光学相变材料(PCM)的进步,光子内存中的神经科学大量已经证明了其在光学神经网络(ONN)设计中的优越性,具有接近零静态功耗,光时间延迟和紧凑的占地面积。然而,光子张量核心需要大量硬件重用来实现由于单核刻度有限的矩阵乘法。由此产生的大量PCM写入,导致严重的动态功率和压倒性的PCM,具有有限的写入耐久性。在这项工作中,我们提出了一种协同优化框架,努力,以最大限度地减少高效且可靠的光学内记忆中的整体写作工作。我们首先提出了写知感知培训,以鼓励重量块之间的相似性,并将其与训练后的优化方法相结合,以通过消除冗余写入来减少编程工作。实验表明,突出可以在具有可比性准确度的写入总数和动态功率的总数超过20倍。通过我们的努力,光子内记忆中的内蒙古大量将向机器学习中的可行应用前进,具有保存的准确性,级别更长的寿命和更低的编程能量。
translated by 谷歌翻译